Letzte Woche hatte ich das Vergnügen, mein Debüt auf der Campixx zu feiern. Als Online-Marketeer mit Schwerpunkt auf technischer SEO war ich besonders gespannt auf die technischen Sessions der Konferenz. Von meinen Kollegen hatte ich bereits zahlreiche Geschichten und Eindrücke aus den Vorjahren gehört, sodass ich mich auf zwei ereignisreiche Tage einstellen konnte.

Die Campixx versprach nicht nur spannende Vorträge und Workshops sowie den Austausch mit Gleichgesinnten, sondern auch die Gelegenheit, endlich all die Anspielungen und Insider-Witze meiner Kollegen zu verstehen. Besonders gespannt war ich auf den legendären „Wer wird SEOnär“ Abend, von dem ich schon so viel gehört hatte.

Wie aufregend und bereichernd meine Erfahrungen auf der Campixx tatsächlich waren, verrate ich am Ende. Hier folgt mein Recap zur Campixx 2024!

Keynote – Beccs Runge

Beccs Runge sprach in der Keynote über Inklusion im Marketing und erklärte, dass Barrierefreiheit ab 2025 verpflichtend sein wird (BSFG). Es (das Pronomen von Beccs) betonte, dass Gendern eine fundamentale Basis der deutschen Grammatik ist, jedoch nicht von Algorithmen. Automatische Übersetzungen funktionieren nicht gut mit gegenderten Texten.

Ebenfalls erläuterte es die bisherigen Methoden des Genderns, darunter das binäre Gendern (m/w/d) wie „ExpertInnen“ und das „Entgendern“ mit der Einbeziehung aller Geschlechter, z.B. „Expert*innen“. Für SEO-Zwecke sei die Formulierung „Kundinnen und Kunden“ besser, aber sie wird nicht so gut von den Kunden aufgenommen, da die doppelte Nennung ausladend und nicht pragmatisch ist.

Die männliche Form funktioniert weiterhin am besten, da Algorithmen von bereits vorhandenen Inhalten lernen und diese meist in der männlichen Form vorliegen. Dies führt zu einer besseren Platzierung in den Suchergebnissen. Runge erklärte, dass der Doppelpunkt und das Sternchen die höchste Reichweite erzielen, wobei das Sternchen auch offiziell durch ein Komitee anerkannt ist. Da Google Interesse an der Erweiterung der Reichweite hat, wird sich der Algorithmus wahrscheinlich anpassen.

Für eine erfolgreiche Inklusion sind folgende Punkte wichtig:

  • Einheitlichkeit des Genderns
  • Expertise: Die Zielgruppe ist oft unerschlossen, daher ist es wichtig, wie diese angesprochen wird
  • Gesellschaftlicher Wandel: Sprachveränderungen und Nutzungsveränderungen

Zur Umsetzung des Genderns auf der eigenen Seite empfahl Runge einen klaren Plan:

  • Planung
  • Entwicklung
  • Test (Verständlichkeit prüfen)
  • Launch
  • Kontinuierliche Optimierung

The Rise of Spam, Hidden Gems, Major Google Updates – Lily Ray

Danach ging es für mich zu Lily Ray, die ihren Vortrag mit der Betonung begann, dass sich der Inhalt stark auf den US-Markt bezieht und nicht alle Änderungen in Deutschland in gleichem Maße ausgerollt wurden. Sie sprach über die negative Sichtweise auf SEO in den USA, die häufig als Betrug wahrgenommen wird. Dies sei auf Faktoren wie OpenAI (nicht in deutscher Google-Suche verwendet), über-optimierte Suchergebnisse, eine Flut an AI-generierten Inhalten und den US vs. Google Trial zurückzuführen. Der Antitrust-Prozess gegen Google senkt das Vertrauen in die Suchmaschine.

Ray erläuterte die neuen Anti-Spam-Richtlinien und erklärte, dass effektives SEO nur möglich ist, wenn man versteht, was Spam ist. Ein Hauptproblem ist der massenhaft automatisch generierte AI-Content-Spam. Dementsprechend hat Google schon im Februar 2023 erklärt, dass AI-Content verwendet werden darf, aber nicht, wenn die Inhalte nicht für Menschen gemacht sind. AI-generierte Inhalte sollten gekennzeichnet werden, was jedoch kaum jemand tut.

Typische AI-Spam-Seiten haben zudem keine oder falsche Autoren, neue Domains und generische Inhalte für generische Fragen. Der „AI content gold rush“ führte zu einem Anstieg solcher Inhalte bis zum März 2024, als Google ein Core Update mit neuen Spam-Richtlinien veröffentlichte, einschließlich der missbräuchlichen Skalierung von Inhalten. Spammer-Seiten wurden abgestraft und in der Google Search Console als „Spaminhalte“ markiert. Einmal abgestraft, ist es schwierig, wieder ins Google-Ranking zu gelangen.

Ray erwähnte auch Originality.ai und deren kleine Studie über Websites, die von Google deindexiert wurden. Viele dachten, Google könne AI-generierte Inhalte nicht erkennen, aber das ist bis zu einem gewissen Grad möglich. Das Helpful Content Update im September 2023 führte ebenfalls zu Maßnahmen gegen „unhelpful content“, wie übermäßige Werbung, Autoplay-Videos und schlecht geschriebene Inhalte.

Parasite-SEO, bei dem die Site-Reputation mit Gastbeiträgen missbraucht wird, wurde von Google abgewertet. Coupon-Subdomains und -Unterordner wurden bestraft und müssen deindexiert werden. LinkedIn und Subreddits sind immer noch beliebte Plattformen für Affiliate-Links, die gut ranken. Spammer werden kreativer und nutzen Facebook-Veranstaltungen oder Github.

Ray sprach über „Hidden Gems“, Seiten mit guten Inhalten, die oft persönliche Einblicke und Erfahrungen bieten. So erlebte Reddit einen Sichtbarkeitsindex-Anstieg von 1600 %, was das größte Wachstum bei Sistrix darstellt. Google erklärte zudem, dass EEAT (Expertise, Authoritativeness, Trustworthiness) wichtig ist und rankt Foren auf Position 1. Dies könnte sich laut Ray jedoch wieder ändern, da nicht alle Foreninhalte hilfreich sind.

Amazon und Reddit ranken oft sehr gut für Suchanfragen wie „beste xyz“, da sie ehrliche Nutzererfahrungen bieten. Reiseblogs und Haustierblogs verlieren dagegen an Sichtbarkeit, da sie informativ, aber keine „echte Marke“ sind und oft nichts anderes als Inhalte bieten.

Zum Schluss gab Ray Tipps: Eine echte Marke aufbauen, Traffic-Quellen diversifizieren, die Markenstimmung und Diskussionen der Zielgruppe auf Reddit und Quora überwachen und vorsichtig bei Trends sein, die „zu gut erscheinen, um wahr zu sein“, da sie beim nächsten Core Update zu einem Absturz führen könnten.

Wie funktioniert das Re-Ranking bei Google – Hanns Kronenberg (Chefkoch GmbH)

Hanns Kronenberg begann seinen Vortrag mit der Erklärung, dass Chefkoch zunächst intern das Re-Ranking untersucht hat, um einen eigenen Such-Algorithmus zu entwickeln. Sie sortierten Rezepte nach einem Algorithmus und einem AI-Re-Ranking, das die Top 10 Suchergebnisse basierend auf Nutzerinteraktionen neu ordnete. Dieses System funktioniert nicht für Long-Tail-Keywords oder Seiten mit wenig Nutzerinteraktionen, wie Seite 2 der Suchergebnisse.

Er erläuterte, dass Google ebenfalls Re-Ranking verwendet, was durch einen Google-Leak bestätigt wurde. Dies war zuvor nur eine Vermutung. Die „3 Pillars of Rank“ umfassen Nutzersignale, die durch Daten ausgewertet werden und den Anschein erwecken, dass Google alle Inhalte versteht. Es wird wenig über Re-Ranking gesprochen, wahrscheinlich weil es bisher keine konkrete Evidenz gab, die nun durch den Leak vorhanden ist.

Kronenberg erklärte, wie das Re-Ranking funktioniert und empfahl, den „Twiddler Quick Start Guide“ zu lesen. Der „Ascorer“ bewertet jedes HTML-Dokument isoliert und führt umfangreiches Crawling durch, allerdings weniger häufig. Der „Twiddler-Bot“ macht die Feinjustierung und bewertet das Zusammenspiel der Dokumente in Echtzeit, ohne Crawling-Aktivität. Mehrere Twiddler arbeiten gleichzeitig und verwenden Werte wie CTR (Click-Through-Rate), Klickqualität und Geotargeting.

Ein Beispiel aus der Praxis zeigte, wie Chefkoch durch verbesserte Bilder das Ranking innerhalb von 24 Stunden von Platz 3 auf Platz 1 verbessern konnte. Die CTR wurde durch die Bilder erhöht, was zu mehr Klickzahlen führte. Nutzer haben wesentlich mehr Einfluss auf das Ranking als oft angenommen, vorausgesetzt, das Suchvolumen ist hoch genug.

5 Automatisierungs-Hacks mit Python für die tägliche SEO-Arbeit – Kevin Kirchhoff

Kevin Kirchhoff begann seinen Vortrag mit der Vorstellung von Tools zur Automatisierung von SEO-Aufgaben. Er erwähnte:

    • KNIME: Geeignet für Nutzer mit wenigen oder geringen Programmierkenntnissen, wobei Programmierlogik notwendig ist.
    • Jupyter Notebook (z.B. Google Colab): Ideal für eigene Projekte, Debuggen und Teilen, erfordert jedoch Erfahrung.
    • Streamlit: Ermöglicht die Erstellung nutzerfreundlicher Web-Apps, benötigt Vorkenntnisse und ist nützlich, wenn andere die Anwendung nutzen sollen.

Hack 1: Meta-Daten Erstellung mit LLMs

        • Funktionen: Website crawlen und bisherige Metadaten analysieren, neue Daten basierend auf Keywords generieren, verarbeitete Daten zum Download bereitstellen.

Hack 2: Keyworddaten-Anreicherung

          • Automatisiertes Abrufen von Keyword-Daten, Nutzung der DateForSEO API zur Abfrage von Suchvolumen und SERP-Daten sowie Wettbewerbsdaten, verarbeitete Daten können heruntergeladen werden.

Hack 3: Keyword Clustering

          • Clustern von Keywords nach Google-Logik statt semantischer Logik, da sich Cluster ständig ändern können. Der Code berechnet SERP-Überlappungen, wählt primäre Keywords aus, ermittelt die optimale Clusteranzahl und ordnet Keywords zu Clustern zu. Nutzung der Vertex AI API zur Umwandlung von Text in Vektoren, um den Kontext des Textes zu erfassen und AI für „Google nahe“ Daten zu nutzen.

Hack 4: Automatisiertes Redirect Mapping

          • CSVs mit Ursprungs- und Ziel-URLs werden genutzt, um relevante Spalten für die Ähnlichkeitssuche auszuwählen. URLs werden nach Ähnlichkeitsscore gemappt, um Weiterleitungskonzepte zu erstellen. Besonders nützlich für Seiten mit vielen nötigen Weiterleitungen und zum Vergleich von Inhalten zwischen Mutter- und Tochtergesellschaften.

Hack 5: Topical Authority Analyse

          • Analyse thematischer Cluster und semantisch ähnlicher Suchanfragen aus Google Search Console (GSC) Daten, um zu ermitteln, mit welchen Clustern die meisten Aufrufe erzielt werden. Nützlich auch für interne Verlinkungen innerhalb desselben Clusters.

Bonus-Hack: Lokaler Chatbot auf Unternehmensserver

      • Nutzung des Tools Ollama für einen Chatbot, der nur unternehmensspezifische Daten verwendet.

Zum Abschluss teilte Kirchhoff den Link zu seinem Linktree-Profil (https://bit.ly/m/kevin-claneo), in dem Links zu seinen öffentlichen Python-Tools zu finden sind.

Zum Abschluss teilte Kirchhoff den Link zu seinem Linktree-Profil (https://bit.ly/m/kevin-claneo), in dem Links zu seinen öffentlichen Python-Tools zu finden sind.

The State of JavaScript Crawling – Tobias Schwarz

Tobias Schwarz begann seinen Vortrag mit einem Rückblick darauf, dass Weiterleitungen früher oft über JavaScript (JS) realisiert wurden, weshalb Google und andere Suchmaschinen begannen, JS auszuführen. Heute dient das Ausführen von JS hauptsächlich dazu, Seiten vollständig zu verstehen, da einige Inhalte ohne JS nicht sichtbar sind. JS kann auch Robots-Direktiven überschreiben und exzessive Werbung erkennen.
Schwarz erläuterte verschiedene Rendering-Methoden:

        • HTML-Verarbeitung: Sehr performant mit geringer Request-Anzahl an den Server, jedoch sind nicht immer alle Inhalte sichtbar und es können keine Aussagen zur Barrierefreiheit getroffen werden.
        • Multi-Step-Rendering: Hat einen Zeitversatz beim Rendern von JS-Inhalten, was eine komplexe Verarbeitungs-Timeline erzeugt. Probleme hierbei sind veraltete Inhalte und Caching, da bekannte Dateien nicht neu heruntergeladen werden und im Cache bleiben. Sonderfälle und die Komplexität machen es schwer verständlich für SEOs.

Wegen dieser Probleme führte Google das Direct Rendering ein:

      • Direct Rendering: Während des Renderns werden die benötigten Ressourcen ohne Zeitverzögerung abgerufen. Probleme hierbei sind die Bandbreite des Servers, da es wenig skalierbar ist und viele Abfragen in kurzer Zeit zu Engpässen führen können.

Google versucht, Traffic-Spitzen zu vermeiden, indem es die Bandbreite limitiert und nur wenige Pipelines fürs Rendern verwendet. Dies führt jedoch zu langsamem Crawling, unvollständigem Content, nicht aktuellem Content und ungenauen Performance-Messungen. Google verwendet Heuristiken, um zu bewerten, wann eine Seite vollständig geladen ist, z.B. kein Traffic mehr, keine Änderungen an sichtbaren Elementen und Timeouts. Es gibt jedoch keine festen Werte von Google dafür.

Schwarz betonte, dass Resources Blocking durch robots.txt oder Meta Robots das korrekte Rendern beeinflussen kann. Langsame Ressourcen werden zu spät geladen und dann in der Google Search Console (GSC) nicht angezeigt.

Es gibt verschiedene Ansätze zum Rendern:

      • Client-side Rendering: Sehr performant, aber die gesamte Verarbeitung erfolgt beim Client.
      • Server-side Rendering: Gute Kontrolle über die angezeigten Inhalte, erfordert jedoch mehr Server-Ressourcen.
      • Dynamic Rendering: Wechselt zwischen User und Bot, was nur Ressourcenaufwand für den Bot bedeutet, aber den Testaufwand erhöht.

Wichtig ist, auf Ausführungszeiten zu achten, da lange Wege zum User und Latenzen entstehen können. Caching, statische Ressourcen und optimierte Zwischenebenen sind hilfreich.

Googlebot versteht zudem Onclick-Events nicht. Beim Direct Rendering werden Viewports nach 5 Sekunden vom mobilen Viewport auf 1648 px hochgezogen, was nur Google macht. So kann Google auch Endlos-Scroll-Seiten laden.

Best Practices:

      • Hauptinhalte immer direkt in HTML oder per Server-Side-Rendering vorladen.
      • Wichtige Ressourcen sollten crawlbar sein und der Content sofort sichtbar.
      • Response-Zeiten überwachen.
      • Long-Term-Versioning: Alte Dateien nicht sofort löschen, um 404-Fehler zu vermeiden, besonders wenn die Dateien denselben Namen haben und nicht neu gecrawlt werden.

Digitale Inhalte für jeden: Grundlagen und Prinzipien der Barrierefreiheit von Webseiten – Maike Schultze-Rhonhof

Maike Schultze-Rhonhof begann ihren Vortrag mit der Ankündigung, dass das BFSG (Barrierefreiheitsstärkungsgesetz) ab dem 28.06.2025 in Kraft tritt und Google es in seine Rankingfaktoren aufnehmen wird. Das BFSG besagt, dass niemand wegen einer Behinderung benachteiligt werden darf.

Webseiten müssen die WCAG-Richtlinien (Web Content Accessibility Guidelines) umsetzen. Diese betreffen zwar derzeit nur spezielle Dienstleistungen, werden aber durch die Integration in die Rankingfaktoren für alle relevant. Die WCAG basieren auf vier Prinzipien der Barrierefreiheit: Wahrnehmbarkeit, Bedienbarkeit, Verständlichkeit und Robustheit.

Diese vier Prinzipien sind in 13 Richtlinien mit insgesamt 78 Erfolgskriterien unterteilt. Mindestens 50 Kriterien müssen erfüllt sein, um die AA-Konformitätsstufe zu erreichen, die gesetzlich vorgeschrieben ist.

Schultze-Rhonhof betonte, dass Barrierefreiheit kein „nice to have“ ist, sondern jeden betreffen kann, auch temporär. Barrierefreiheit bringt viele Vorteile, auch SEO-seitig und stärkt den Markenwert. Laut WHO betrifft Barrierefreiheit 13 % der Weltbevölkerung, in Deutschland ist sie für 10 % unerlässlich, für 30 % notwendig und für 100 % hilfreich. Behinderte Menschen shoppen zu 61 % online, weshalb dieser Anteil nicht ignoriert werden sollte.

Wahrnehmbarkeit: Schriften und Texte sollten gut erkennbar und leserlich sein (keine Schnörkel). Responsive Design ist wichtig, ebenso das 2-Sinne-Prinzip und die Unterstützung von Screenreadern. Audio- und Videoinhalte sollten mit Untertiteln versehen sein, die gut leserlich sind (am besten mit Hintergrund). Längere Texte sollten nicht in Großbuchstaben geschrieben und Buchstaben nicht verbunden werden. Links sollten farblich abgehoben und unterstrichen werden und Bilder/Fotos auf Farbenblindheit angepasst sein.

Tools zur Prüfung: Schultze-Rhonhof empfahl das Figma-Plug-in „Stark – Contrast & Accessibility Checker“ (https://www.figma.com/community/plugin/732603254453395948/stark-contrast-accessibility-checker), das alternative Farbgebungen nach WCAG-Standard vorschlägt. Fonts sollten sich an das Gerät und den Nutzer anpassen lassen und der Text sollte herangezoomt werden können, ohne dass die Seite unübersichtlich wird. Voiceover (eine Apple-Funktion) kann für Tests verwendet werden und Grafiken sowie Videos sollten Alt-Texte haben.

Bedienbarkeit: Nutzer sollten auch ohne Maus, Tippen und Wischen navigieren können, ohne Zeitdruck und zeitliche Begrenzungen. Man sollte mit der Tab-Taste von Link zu Link navigieren können.

Verständlichkeit: Klare Orientierung, leichte Texte und Inhalte in Gebärdensprache sowie leichter Sprache sollten bereitgestellt werden. Visuelles Feedback ist wichtig, z.B. durch Icons, wenn man Dinge ausblenden kann. Die BGW bietet eine Seite an, die zeigt, wie man Inhalte leichter schreiben kann (https://bgw-online-de/was-ist-leichte-sprache–28842).

Werde zum Google Sheets Ninja: Hacks und Templates für SEOs – Laura Perlitz

Laura Perlitz begann ihren Vortrag mit der Empfehlung des Browser-Plug-ins „Search Analytics for Sheets“, das ein Must-have für SEOs ist. Sie hob mehrere nützliche Features von Google Sheets hervor:

        • Datenvalidierung und Beschränkungen: Man kann Regeln für Zellen eingeben, um die Eingaben zu validieren.
        • Drop-Downs: Diese können in einem separaten Tab in Sheets verwaltet werden.
        • Bedingte Formatierungen und Pivot-Tabellen: Sie betonte die Bedeutung dieser Funktionen für die Datenanalyse.
        • Pivot-Tabellen: Sie erklärte die Verwendung von Gruppierungsregeln, z.B. um die Klickverteilung zu analysieren und zu sehen, welche Seiten sehr viele Klicks und welche sehr wenig erhalten.
        • Neues Feature: Google Sheets hat jetzt vorgefertigte Tabellen, die die Arbeit erleichtern können.

Konkrete Maßnahmen aus der Google Search Console ableiten – Stefan Fischerländer

Stefan Fischerländer erläuterte, wie man konkrete Maßnahmen aus der Google Search Console (GSC) ableiten kann. Er wies darauf hin, dass lange Zeiträume zu Verfälschungen führen können, da bei „Seiten > Positionen“ Mittelwerte gebildet werden. Es gibt eine Beschränkung von 1000 Ergebnissen pro Property, daher sollte man Properties für Verzeichnisse anlegen.

Segmentierungen und Filter: Fischerländer betonte die Wichtigkeit von Segmentierungen durch reguläre Ausdrücke und zeigte, wie man damit smart filtern kann. Langzeitvergleiche und Vorjahresvergleiche sind ebenfalls nützlich. In der GSC werden Daten für 16 Monate gespeichert, was ausgenutzt werden sollte. Das GSC Helper Plug-in ermöglicht z.B. Wochenansichten.

Google Updates: Es ist wichtig, Google Updates zu berücksichtigen und Daten 14 Tage vorher und nachher zu vergleichen, solange keine eigenen Änderungen oder saisonale Einflüsse in dieser Zeit stattgefunden haben. Top-Seiten sollten überwacht und in reguläre Ausdrücke überführt werden, um in der GSC gefiltert zu werden.

Keyword-Schwankungen: Die Sichtbarkeit (SI) kann stark keywordbasiert schwanken. Es ist besser, GSC-Daten zu vergleichen, da diese extrem abhängig von Nachfrageschwankungen (Saison, Wetter, etc.) sind. SEO-Klicks sollten normiert werden, indem man den SEO-Traffic durch den Direct-Traffic teilt, um die Daten vergleichbar zu machen.

SEO-Erfolg pro Seite: Dies kann berechnet werden, indem man die Google-Klicks durch die Anzahl der Seiten im Verzeichnis teilt, was Klicks pro Seite ergibt.

Crawl-Statistiken: Seiten, die nach 128 Tagen nicht wieder gecrawlt wurden, fliegen offenbar aus dem Index. Dies wurde in einer Diskussion auf LinkedIn erwähnt, aber nicht abschließend von Google bestätigt. Unter Einstellungen sollten die Crawl-Statistiken überprüft werden.

Usability-Tipps: Der Bereich „Verbesserungen“ in der GSC sollte überwacht werden, z.B. für strukturierte Daten. Die Bounce-Rate der Top-Seiten sollte analysiert werden.

Chancen-Keywords: Keywords, die auf Position 9 bis 12 ranken, bieten Potenzial für Optimierungen. Content-Lücken können durch die Suche nach Keywords auf Positionen > 10 gefunden werden.

Reguläre Ausdrücke: Fischerländer zeigte, wie man W-Fragen mit dem regulären Ausdruck \b(wer|was|wann|wo|warum|wie|welche|welcher|welches|wem|wen)\b.*$ anzeigen lassen kann. Long-Tail-Suchbegriffe können mit dem regulären Ausdruck \b(?:\w+\s+){4,}\w+\b gefunden werden.

Interne und externe Links: Die am häufigsten intern verlinkten Seiten können in der GSC angezeigt werden, ohne reguläre Ausdrücke zu verwenden. Ebenso können externe Links analysiert werden, um Seiten zu identifizieren, die gut für Linkbuilding funktionieren.

Zwischenfazit

Nach dem letzten Vortrag ging es zu den Food-Trucks auf dem Außengelände des Van der der Valk Hotels. Glücklicherweise hat es nicht geregnet. Etwas Gewitterwolken zogen bei mir aber trotzdem auf. Die Schlangen waren lang und der Burger-Truck hatte nach einer halben Stunde bereits keine Veggi-Patties mehr. Schade, aber meine Nudeln haben dafür auch gut geschmeckt.

Danach war es nach kurzem Networking und einem Abstecher zur RC-Car-Rennstrecke endlich soweit und das Abendprogramm mit „Wer wird SEOnär?“ begann. Gut, wer dabei eine wirklich schwere Quizshow erwartet, wird enttäuscht sein. Neben goldenem Konfettiregen, einigen technischen Schwierigkeiten und dem Abhandenkommen des „SEO im Sack“ (ein bekannter Speaker des Tages, bei dem mit Ja-Nein-Fragen geraten wird, um wen es sich handelt) hielt der Abend vor allem von einem viel bereit: Alkohol. Gesponsert von Flimm, drehten sich entweder die Fragen um den höllisch süßen Likör oder als Belohnung nach jeder Runde (und Runden gab es einige) wurde das Publikum mit dem Getränk „belohnt“. Lustig und eine Erfahrung wert war es allemal.

Nach der frühen Anfahrt am selben Tag aus Dresden, waren meine Akkus am Abend leer. Aber fürchte nicht: selbst auf dem Hotelzimmer habe ich noch jedes Wort der Karaoke-Feier gehört – und damit ging ein ereignisreicher erster Konferenztag zu Ende.

Tag 2: Lokalisieren, Optimieren, Dominieren: Internationales SEO mit Künstlicher Intelligenz – Matthäus Michalik

Matthäus Michalik begann seinen Vortrag mit den Herausforderungen der internationalen SEO. Er erläuterte, dass in den USA eine primäre Sprache ausreicht, während man in Europa mindestens fünf Amtssprachen benötigt, um eine ähnlich große Zielgruppe anzusprechen. Auch verschiedene Suchmaschinen müssen berücksichtigt werden.

Worauf also achten?

Domain-Strategie: Michalik empfahl unterschiedliche Strategien je nach Zielgruppe:

      • B2C: Länderspezifische Domains wie .de oder .fr
      • B2B: Verzeichnisse wie /de oder /fr auf einer globalen Domain
      • Nicht empfohlen: Subdomains wie fr.bike.com
      • Besser: Verzeichnisse auf einer globalen Domain wie bike.com/it, da .de deutschen Inhalt voraussetzt und .com besser für internationale Inhalte ist.

Technisches Set-up: Hier kann KI helfen. Google erkennt internationale Inhalte auf verschiedene Arten. Wichtig ist die Verwendung von hreflang, um Kannibalisierung zu vermeiden. Google betrachtet en-gb und en-uk angeblich als gleichwertig, da sie oft falsch verwendet wurden. ChatGPT kann hreflang-Listen erstellen oder Fehler beheben.

Keywords & Content: Lokaler Content ist entscheidend, da Suchintentionen und Begriffe je nach Land unterschiedlich sind. Zum Beispiel suchen Deutsche eher nach „Kfz-Versicherung“ statt „Autoversicherung“. Schlechte Lokalisierung kann viel Geld kosten, wenn falsche Keywords mit weniger Suchvolumen verwendet werden. Lokalisierungen können von GPT übersetzt werden. Für Audio und Video empfiehlt Michalik HeyGen.

SPEAR-Modell für KI-Prompts: Set the stage, Provide the Instructions, Establish Parameters, Add Examples, Refine and Review.

Offpage-Signale: Lokale Backlinks sind wichtig. Methoden umfassen Digital PR, Mention Outreach, Fachbeiträge und Interviews sowie Foren und Diskussionen. ChatGPT kann für fremdsprachige Mail-Vorschläge genutzt werden, z.B. für Interviewanfragen.

KI nutzen, aber Ergebnisse immer hinterfragen. Michalik betonte die Notwendigkeit, die Ergebnisse der KI immer zu überprüfen.

Zum Schluss verwies er auf das Tool von Claneo, das lokale Suchergebnisse für verschiedene Länder simuliert: International Search Tool.

Boost your workflow: effektiver arbeiten mit make.com, tools und KI – Jens Polomski

Jens Polomski erläuterte, wie man durch die Nutzung von make.com, Tools und KI seine Arbeitsabläufe effizienter gestalten kann. Er erklärte, dass man mit der Bezahlversion von ChatGPT eigene GPTs für spezifische Themen erstellen und verwenden kann. Beispiele sind ein Midjourney Prompt Generator über eine eigene ChatGPT-Instanz und ein KI-Beratung-GPT, das Angebots-Texte in individuelle Angebote für Kunden umwandelt.

GPTs können mit anderen Systemen kommunizieren, z.B. können Daten von GPT an Google Sheets gepusht werden. Make.com bietet über 1800 Apps zur Kommunikation mit anderen Systemen. Ein Beispiel ist die automatische Erstellung einer Mail-Antwort als Entwurf bei Eingang einer Anfrage per Mail, verbunden mit einer Benachrichtigung auf Slack. Er betonte, dass der Mensch als Kontrollinstanz immer beibehalten werden sollte. Weitere erwähnte Tools und Plug-ins waren:

        • Claude Prompt Generator
        • YouTube Summary with ChatGPT & Claude (ein Browser-Plug-in, das mit dem Shortcut Strg+X+X Zusammenfassungen von YouTube-Videos erstellt)
        • Zapier Central
        • Chrome-Plug-ins können ebenfalls über ChatGPT geschrieben werden (z.B. der Code)

So verbindest du den Screaming Frog direkt mit KNIME – Andreas Röne

Andreas Röne erklärte, wie man den Screaming Frog (SF) direkt mit KNIME verbinden kann. Dies ist nur mit der Bezahlversion von SF möglich. Beide Anwendungen sind in Java geschrieben und können daher über JDBC miteinander verbunden werden. Wichtig ist, dass der Storage Mode auf Database Storage eingestellt wird.

Die Schritte zur Verbindung umfassen das Herunterladen des Apache Derby-Datenbanktreibers und die Beachtung der Versionierung von KNIME, SF und Apache Derby, da unterschiedliche Java-Funktionen verwendet werden könnten, die nicht miteinander kompatibel sind.

Röne hat einen SF-Admin entwickelt, der automatisch SF-Crawls anzeigt und das Crawl-Verzeichnis kann für den Import in KNIME kopiert werden. Er betonte, dass SF geschlossen sein muss, wenn man KNIME öffnet und umgekehrt.

Der restliche Vortrag bestand aus Fallbeispielen und deren Umsetzung in KNIME, was nicht direkt auf andere Projekte übertragbar ist.

Neue Google Features und Updates: Was ist wirklich relevant? – Christian Kunz

Christian Kunz begann seinen Vortrag mit einer Erklärung des Super-Updates im März, das drei Updates in einem beinhaltete. Es wird künftig keine separaten Helpful Content Updates mehr geben und Google geht verstärkt gegen folgende Missbräuche vor:

        • Scaled Content: Massenproduzierte Inhalte
        • Expired Domain Abuse: Recycling von Domains
        • Site Reputation Abuse: Seit dem 6. Mai, bisher aber noch ohne algorithmische Änderungen

Seit dem Update ist eine größere Dynamik sichtbar und die Qualität scheint sich gegen die Masse durchzusetzen. Generalisten, wie z.B. Nachrichten-Websites, verlieren aktuell an Boden.

Helpful Content Update September 2023: Websites wurden abgewertet, wenn sie fehlende Transparenz, fehlendes Branding, einen schlechten Content-Mix, schlechte Benutzerfreundlichkeit (UX), fehlende Original-Inhalte oder eine Fokussierung auf die Suche zeigten, die den User Intent verfehlt.

Erstellung von hilfreichen Inhalten: Wichtige Informationen sollten oben stehen, Details weiter unten. Der Suchintent sollte direkt erkennbar sein und die Website muss vertrauenswürdig aussehen. Kunz empfahl, die Google-Checkliste für hilfreiche Inhalte zu verwenden. Verbesserungen benötigen Zeit und müssen umfassend sein, man ist nie einfach „fertig damit“.

Starke Backlinks: Manchmal reicht On-Page-SEO nicht aus und man benötigt starke Backlinks, besonders bei hoher Konkurrenz.

Site Reputation Abuse/Parasite SEO: Es ist wichtig, unique Content mit praktischen Tipps zu schaffen, z.B. in einem Gutschein-Magazin. Eigene Domains sollten aufgebaut oder gestärkt werden und die Integration von White Labels sollte eher auf Einzelseiten erfolgen.

Kunz erwähnte, dass der Google-Leak vieles bestätigte, was bereits bekannt war, aber die Dokumente können als praktische Checklisten verwendet werden.

Barrierefreiheitsstärkungsgesetz – das erste Gesetz, was uns zu mehr Sichtbarkeit bringt? – Nadine Wolff

Nadine Wolff begann ihren Vortrag mit dem Hinweis, dass B2B-Unternehmen und Kleinunternehmen (unter 10 Mitarbeiter und maximal 2 Millionen Euro Jahresumsatz) bisher vom Barrierefreiheitsstärkungsgesetz (BFSG) ausgenommen sind, dies könnte sich jedoch ändern.

Beispiele für Barrierefreiheit:

        • Verfügbarkeiten im Shop mit Farbcodierung darstellen: Wolff empfahl, Farben, Wörter und Symbole zu verwenden, um Verfügbarkeiten anzuzeigen, da Farbcodierungen allein für Menschen mit Farbsehschwäche problematisch sein können.
        • ColorADD: Diese Initiative versucht, Farben durch Symbole zu ersetzen, um mehr Inklusion zu ermöglichen. Es bleibt abzuwarten, ob sich diese Symbole durchsetzen werden.

WCAG-Prinzipien: Diese wurden, wie im vorherigen Vortrag erwähnt, auch hier besprochen:

        • Textabstand: Der Mindestabstand sollte das 1,5-fache der Schriftgröße betragen.
        • Zitate in anderen Sprachen: Diese müssen mit lang=xyz ausgezeichnet werden, damit Screenreader die Sprache wechseln können.

WebAIM: Diese Institution führt jedes Jahr eine Zugänglichkeitsbewertung von Websites durch und stellt fest, dass 96 % der Websites Fehler in sechs Kategorien aufweisen, darunter Kontrastprobleme, fehlende Alt-Texte und fehlende Form-Labels.

Tools zur Prüfung der Barrierefreiheit:

        • Wave
        • Lighthouse
        • BIK BITV Test (kostenpflichtig)
        • Screenreader: NVDA und Voiceover
        • Tab-Funktionen nutzen zum Testen

Wolff erklärte, dass die WCAG international gültig sind, während die BITV der deutsche Standard ist. Inhaltlich sind beide jedoch identisch.

Konkurrenz-Monitoring mit Sreaming Frog: Insights Deluxe – Sascha Blank

Sascha Blank begann seinen Vortrag mit der Feststellung, dass Sistrix und einfache visuelle Prüfungen ihre Limitationen in der Konkurrenzüberwachung haben. Daher entwickelte er das Tool „Spyguru“, das verschiedene Funktionen für ein umfassendes Konkurrenz-Monitoring bietet:

        • Monitoring von Veröffentlichungen: Spyguru kann überwachen, wann und wie viele Seiten online gestellt werden. Dies hilft, die Publishing-Cycles der Konkurrenz nachzuvollziehen, z.B. ob Seiten saisonal angepasst werden und wann welche Änderungen stattfinden.
        • Monitoring von Veröffentlichungen: Spyguru kann überwachen, wann und wie viele Seiten online gestellt werden. Dies hilft, die Publishing-Cycles der Konkurrenz nachzuvollziehen, z.B. ob Seiten saisonal angepasst werden und wann welche Änderungen stattfinden.
        • HR-Stalking: Überwachung, wie viele Mitarbeiter auf der Website hinzugefügt und welche Stellenangebote hochgeladen werden.
        • Title Tag Monitoring: Änderungen an Title Tags weisen oft auf Änderungen im Content hin und können überwacht werden.

Blank betonte die Bedeutung ethischer Prinzipien beim Konkurrenz-Monitoring:

          • Ethical Web Scraper: Konkurrenzseiten sollten in einer zumutbaren Geschwindigkeit abgerufen und Daten nicht dupliziert werden.

Die Daten werden über Screaming Frog (SF) abgerufen, dann auf Google Drive geladen und in BigQuery verarbeitet und bereinigt. In BigQuery werden dann Logiken erstellt, die die zuvor formulierten Fragestellungen beantworten.

Limitationen:

          • Die Umsetzbarkeit des Monitorings hängt von der Konkurrenz ab und technische Sicherheitsmaßnahmen können das Monitoring verhindern.
          • Vorkenntnisse in SQL und Python sind notwendig, um das System effektiv zu nutzen.

Blank erwähnte, dass er nicht derjenige war, der die Folien erstellt hat und konnte daher keine weiteren detaillierten Aussagen treffen, was mich etwas enttäuscht hat.

Mein Fazit

Ich habe viel von der Campixx 2024 erwartet. Von gutem Essen über legendäre Abende und geballtem Fachwissen war alles dabei.

Ich kann nach den beiden Konferenztagen bestätigen, dass die Snacks, die zwischen den Sessions im Hotel aufgebahrt wurden, wirklich lecker und vielfältig waren. Leider gab es „nur“ Schilder, um vegane Speisen auszuzeichnen. Für vegetarische Snacks gab es kein Schild und auch wenn man meinen möge, es sollte offensichtlich sein, worin sich Fleisch verbirgt, den fordere ich heraus, zu raten, was sich in frittierten krokettenähnlichen Bällen befinden soll. Nichtsdestotrotz: die Snacks waren ein Highlight.

Ebenfalls begeistert war ich von vielen Sessions, in denen ich war. Zahlreich geballtes Fachwissen zu SEO sowie technischen Aspekten spornt an, seine eigenen Arbeitsweisen kontinuierlich zu hinterfragen und weiterzuentwickeln. Es gab keine Session, bei der ich dachte, ich hätte meine Zeit besser woanders nutzen können. Ganz im Gegenteil: Viele der Sessions haben mir neue Blickwinkel auf die Prozesse gezeigt, die ich seit Jahren durchführe und dieser frische Wind ist, meiner Meinung nach, genau das, was notwendig für die fachliche Weiterentwicklung ist.

Die Campixx 2024 war meine erste SEO-Konferenz und ich hoffe, dass ich keinesfalls zum letzten Mal dabei gewesen bin.

Wobei dürfen unsere Experten Sie unterstützen?















    * Pflichtfeld